培训低级的深层神经网络,即使用分解层,特别是社区感兴趣的:它在记忆消耗和训练时间方面提供了对未分离培训的效率。先前的工作集中在预训练的网络的低级近似值和低级空间中的培训中,并提供了其他目标,为所选实践提供了各种临时解释。我们分析了在实践中运作良好的技术,并通过对诸如GPT2之类的模型进行广泛的消融,我们提供了证据表明该领域的共同信念,这暗示着令人兴奋的研究机会仍然需要回答。
translated by 谷歌翻译
在分配的图表上,多代理探路(MAPF)的问题在于为多种代理寻找路径,避免碰撞。已知找到最小长度的解决方案是NP-固定的,并且计算时间随着试剂的数量而呈指数增长。但是,在工业应用中,重要的是要在随着代理数量多一项生长的时期找到可行的次优溶液。这种算法存在于无向和双连接的有向图。我们的主要贡献是将这些算法概括为更加牢固连接的有向图的情况。特别是,给定至少两个孔的MAPF问题,我们提出了一种算法,该算法可检查线性时间相对于节点数量的可行性,并在多项式时间内提供可行的解决方案。
translated by 谷歌翻译